首页> 外文OA文献 >Evaluating Retrieval over Sessions: The TREC Session Track 2011-2014
【2h】

Evaluating Retrieval over Sessions: The TREC Session Track 2011-2014

机译:评估会话检索:TREC会话追踪2011-2014

代理获取
本网站仅为用户提供外文OA文献查询和代理获取服务,本网站没有原文。下单后我们将采用程序或人工为您竭诚获取高质量的原文,但由于OA文献来源多样且变更频繁,仍可能出现获取不到、文献不完整或与标题不符等情况,如果获取不到我们将提供退款服务。请知悉。

摘要

rmation Retrieval (IR) research has traditionally focused on serving the best results for a single query - so-called ad hoc retrieval. However, users typically search iteratively, refining and reformulating their queries during a session. A key challenge in the study of this interaction is the creation of suitable evaluation resources to assess the effectiveness of IR systems over sessions. This paper describes the TREC Session Track, which ran from 2010 through to 2014, which focussed on forming test collections that included various forms of implicit feedback. We describe the test collections; a brief analysis of the differences between datasets over the years; and the evaluation results that demonstrate that the use of user session data significantly improved effectiveness.
机译:传统上,信息检索(IR)研究集中于为单个查询提供最佳结果,即所谓的临时检索。但是,用户通常会进行迭代搜索,从而在会话期间优化和重新定义他们的查询。研究这种相互作用的一个关键挑战是创建合适的评估资源来评估整个会话期间IR系统的有效性。本文介绍了从2010年到2014年的TREC会话跟踪,重点是形成包含各种形式的隐式反馈的测试集合。我们描述测试集合;简要分析这些年来数据集之间的差异;评估结果表明,使用用户会话数据显着提高了有效性。

著录项

相似文献

  • 外文文献
  • 中文文献
  • 专利
代理获取

客服邮箱:kefu@zhangqiaokeyan.com

京公网安备:11010802029741号 ICP备案号:京ICP备15016152号-6 六维联合信息科技 (北京) 有限公司©版权所有
  • 客服微信

  • 服务号